6. Teoremas Asintóticos#
6.1. Ley débil de los grandes números#
Antes, vimos la interpretación frecuentista de la probabilidad:
Sea \(n\) el número de experimentos, y \(n(A)\) el número de veces que el evento \(A\) ocurre en la realización de esos experimentos, entonces \(P(A) = \frac{n(A)}{n}\).
Por qué podemos obtener probabilidad así?
La ley de los grandes números proporciona la prueba. Vincula el concepto abstracto de probabilidad con la frecuencia. Este teorema dice que la media de una muestra grande está cerca de la media de la distribución de la población.
Sean \(X_1,...X_n\) v.a. independientes idénticamente distribuidas (i.i.d.) de media \(\mu\). Entonces, \(\overline{X}_n=\frac{1}{n}\sum_{i=1}^n X_i\) cumple:
para cualquier \(\epsilon >0\).
Usualmente se escribe como
Es decir, la distribución de la media muestral \(\overline{X}_n\) se concentra más alrededor de la verdadera media \(\mu\) a medida que \(n\) se hace grande.
6.2. Teorema del Límite Central#
La ley de los grandes números dice que la distribución de \(\overline{X}_n\) se acumula cerca de \(\mu\). Pero esto no es suficiente para ayudarnos a aproximar la distribución de probabilidad sobre \(X_n\). Para ello necesitamos el teorema del límite central.
El teorema del límite central dice que la media muestral tiene aproximadamente una distribución Normal para una muestra grande.
Sean \(X_1,...X_n\) v.a. i.i.d. de media \(\mu\) y varianza \(\sigma^2\), entonces \(\overline{X}_n=\frac{1}{n}\sum_{i=1}^n X_i\) cumple:
Usualmente se escribe como
Es decir que es posible aproximar la distribución de \(\overline{X}_n\) por \({\cal{N}}(\mu,\frac{\sigma^2}{n})\) que tiene la misma media y \(\frac{1}{n}\) de la varianza de la distribución de población.
Nota
En este teorema, \(X_i\) no tiene que tener una distribución normal; podría ser cualquier distribución.
El teorema del límite central es sobre la media muestral, no sobre la variable aleatoria en sí misma.
Una aplicación muy importante de este teorema consiste en determinar valores razonables de la media de la población \(\mu\). Temas como prueba de hipótesis, estimación, y muchos otros utilizan este teorema. Vamos a repasar este teorema en alguna clase en el futuro.
6.2.1. Ilustración#
Simulando un cierto número de muestras de distintos tamaños de una distribución definida, y elaborando histogramas de las medias muestrales se obtiene lo siguiente:
#caso Bernoulli
suppressMessages(library(dplyr))
suppressMessages(library(plotly))
suppressMessages(library(moments))
set.seed(1)
nensayos <- 1
p <- 0.5
nmuestra <- 10000
params <- c(1:5, seq(10, 100, by=10), seq(200, 300, by=100)) #tamaños de mustras
muestra <- matrix(0, nrow=nmuestra, ncol=length(params))
for (i in 1:length(params)){
n <- params[i]
m <- matrix(rbinom(n * nmuestra, nensayos, p), nrow=nmuestra, ncol=n, byrow=TRUE)
medias <- m %*% rep(1, n) / n
esperanza <- p
varianza <- p * (1 - p)
muestra[,i] <- (medias - esperanza) / sqrt(varianza / n)
}
steps <- list()
max_x <- 4
vec <- seq(-max_x, max_x, 0.05)
pvec_Z <- dnorm(vec)
fig <- plot_ly(width=600,height=600) %>%
layout(title = "\n\n Histograma (convertido en densidad de proba.)\n de medias muestrales, caso binomial",
yaxis = list(range=c(0, 1)), xaxis = list(range=c(-max_x, max_x))) %>%
add_lines(x=vec, y=pvec_Z, visible=TRUE, mode='lines', line=list(color='blue'), showlegend=TRUE, name="Z")
for (i in 1:length(params)){
data <- muestra[,i]
fig <- add_histogram(fig, data, histnorm = "probability density", visible=ifelse(i==1, TRUE, FALSE), showlegend=TRUE, xbins=list(start=-4,end=4, size=0.5),
name=sprintf("N=%d, M=%.2f, SD=%.2f, asim=%.2f, curt=%.2f", params[i], mean(data), sd(data), skewness(data), kurtosis(data)))
steps[[i]] <- list(args = list('visible', rep(FALSE, length(params)+1)), label=params[i], method='restyle')
steps[[i]]$args[[2]][1] <- TRUE
steps[[i]]$args[[2]][i+1] <- TRUE
}
fig <- fig %>% layout(sliders=list(list(active=0, currentvalue = list(prefix = "N: "), steps=steps)), legend=list(x=0.1, y=0.85))
fig